맨위로가기

조건부 확률

"오늘의AI위키"는 AI 기술로 일관성 있고 체계적인 최신 지식을 제공하는 혁신 플랫폼입니다.
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.

1. 개요

조건부 확률은 주어진 사건이 발생했을 때 다른 사건이 발생할 확률을 의미한다. 확률 공간과 양의 확률을 가진 사건 A가 주어졌을 때, 사건 B의 조건부 확률은 A가 발생했을 때 B가 발생할 확률로 정의되며, P(B|A) = P(A ∩ B) / P(A)로 계산된다. 조건부 확률은 새로운 확률 공간을 형성하며, 확률의 공리로 도입되기도 한다.

조건부 확률은 통계적 추론에서 새로운 정보를 바탕으로 사건의 확률을 업데이트하는 데 사용되며, 베이즈 정리를 통해 사전 확률을 사후 확률로 갱신한다. 두 사건이 독립 사건일 경우 조건부 확률과 무조건 확률은 일치하며, 상호 배타적 사건은 통계적으로 독립일 수 없다.

조건부 확률과 그 역의 크기가 비슷하다고 가정하거나, 주변 확률과 조건부 확률의 크기가 비슷하다고 가정하는 것은 흔한 오류이다. 결합 확률은 여러 사건이 동시에 일어날 확률을, 주변 확률은 다른 사건과 관계없이 한 사건만의 확률을 의미한다.

더 읽어볼만한 페이지

  • 조건부 확률 - 조건부 독립
    조건부 독립은 확률론에서 특정 사건이 주어졌을 때 다른 두 사건이 독립이 되는 상황을 나타내는 개념으로, 사건 C가 주어졌을 때 사건 A와 사건 B가 조건부 독립이라는 것은 사건 C가 발생했다는 정보가 주어졌을 때 사건 A의 발생 여부가 사건 B의 발생 확률에 영향을 미치지 않음을 의미한다.
  • 조건부 확률 - 최대가능도 방법
    최대가능도 방법은 관측된 데이터가 특정 확률 분포에서 생성되었을 가능성이 가장 높은지를 판단하여 추정량을 구하는 통계적 방법이다.
  • 통계학 용어 - 퍼센트 포인트
    퍼센트포인트는 전체 비율을 나타내는 퍼센트와 달리 두 퍼센트 값의 차이를 나타내는 단위로, 경제 지표나 여론조사 등에서 명확한 정보 전달을 위해 중요하며 절대적 변화량을 나타낸다.
  • 통계학 용어 - 편차
    편차는 관측값과 참값의 차이인 오차를 의미하며 통계적 분산 측정에 중요하고, 데이터 분석, 과학 실험, 무선 공학 등에서 활용된다.
  • 확률론 - 확률 밀도 함수
    확률 밀도 함수는 연속 확률 변수의 확률 분포를 나타내는 함수로, 특정 구간에서 확률 변수가 값을 가질 확률은 해당 구간에 대한 함수의 적분으로 계산되며, 통계적 특성 계산 및 변수 변환 등에 활용되어 불확실성 모델링 및 분석에 중요한 역할을 한다.
  • 확률론 - 체비쇼프 부등식
    체비쇼프 부등식은 확률 변수가 평균에서 얼마나 멀리 떨어져 있는지에 대한 확률의 상한을 제공하는 부등식으로, 이레네-쥘 비네메가 처음 공식화하고 체비쇼프와 안드레이 마르코프에 의해 일반화 및 증명되었으며, 확률론적 표현 외에도 측도 공간에 대한 명제로 확장될 수 있다.
조건부 확률
정의
설명어떤 사건 B가 일어났다는 가정 하에 사건 A가 일어날 확률이다.
표기법P(A|B) 또는 PB(A)로 표기하며, "B가 주어졌을 때 A의 확률"이라고 읽는다.
예시감기에 걸렸을 때 기침을 할 확률 P(기침|감기)
독립
설명사건 A와 B가 서로에게 영향을 주지 않을 때, P(A|B) = P(A)가 성립한다.
계산
공식P(A|B) = P(A∩B) / P(B) (단, P(B) > 0)
베이즈 정리P(B|A) = P(A|B) P(B) / P(A)
관련 개념
전체 확률의 법칙여러 개의 배반 사건 Bi에 대해, P(A) = Σ P(A|Bi)P(Bi)

2. 정의

확률 공간 $(\Omega,\mathcal F,\operatorname{Pr})$에서 양의 확률을 갖는 사건 $A$ ($\operatorname{Pr}(A)>0$)가 주어졌을 때, 임의의 사건 $B$에 대한 $A$ 조건부 확률은 다음과 같이 정의된다.

:\operatorname{Pr}(B|A)=\frac{\operatorname{Pr}(A\cap B)}{\operatorname{Pr}(A)}

이 경우, $(\Omega,\mathcal F,\operatorname{Pr}(\cdot|A))$는 새로운 확률 공간을 이룬다.

조건부 확률은 조건부 사건의 확률로도 정의될 수 있다. 굿맨-응우옌-반 프라센 조건부 사건은 다음과 같이 정의된다.

:A_B = \bigcup_{i \ge 1} \left( \bigcap_{j

여기서 A_iB_i는 ''A'' 또는 ''B''의 상태 또는 요소를 나타낸다. 이 경우 다음이 성립한다.

:P(A_B)= \frac{P(A \cap B)}{P(B)}

2. 1. 콜모고로프 정의



조건부 확률을 설명하는 벤 다이어그램


사건 A와 B가 확률 공간의 시그마-필드에서 주어지고, B의 무조건부 확률이 0보다 큰 경우(P(B) > 0), 사건 B가 발생했을 때 A의 조건부 확률(P(A|B))은 B가 발생했을 때 A가 발생할 확률이다.[5] 조건부 확률은 사건 A와 B의 결합 교차점의 확률, 즉 A와 B가 함께 발생할 확률인 P(A ∩ B)와 B의 확률의 몫으로 정의된다:[2][6][7]

:P(A \mid B) = \frac{P(A \cap B)}{P(B)}.

이는 단순한 이론적 결과가 아닌 정의이다. P(A ∩ B) / P(B)를 P(A|B)로 나타내고 "B가 주어졌을 때 A의 조건부 확률"이라고 부른다.

사건 A와 B가 있고, P(B) > 0일 때, B에서의 A의 조건부 확률은 다음과 같이 정의된다.

:\operatorname{P}(A\mid B)=\frac{\operatorname{P}(A \cap B)}{\operatorname{P}(B)}

:\operatorname{P}(A \cap B)=\operatorname{P}(A\mid B) \operatorname{P}(B)

2. 2. 확률의 공리로서의 조건부 확률

데 피네티와 같은 일부 학자들은 조건부 확률을 확률의 공리로 도입하는 것을 선호한다.[1]

:P(A ∩ B) = P(A | B)P(B)

이는 "B가 발생할 확률과 B가 발생했을 때 A가 발생할 확률을 곱한 값은 A와 B가 함께 발생할 확률과 같다"는 의미로 해석될 수 있다. (반드시 동시에 발생할 필요는 없다).[1] 주관적 이론과 같은 주요 확률 해석에서 조건부 확률은 기본 실체로 간주된다.[1]

2. 3. 확률 0인 사건에 대한 조건화

만약 P(B)=0 이면, 정의에 따라 P(A \mid B) 는 정의되지 않음으로 간주된다.

연속 확률 변수 X에 대한 조건부 확률 변수 Y가 특정 결과 x를 나타내는 경우는 흥미로운 경우이다.[1] 사건 B = \{ X = x \}는 확률이 0이므로, 조건부 확률로 사용할 수 없다.[1]

X가 ''정확히'' x인 경우 대신에, x에서 거리 \epsilon보다 가까운 경우에 대한 조건부 확률을 사용할 수 있다.[2] 사건 B = \{ x-\epsilon < X < x+\epsilon \}는 일반적으로 0이 아닌 확률을 가지므로, 조건부 확률로 사용할 수 있다.[2]

그런 다음 극한을 취할 수 있다.[2]

:\lim_{\epsilon \to 0} P(A \mid x-\epsilon < X < x+\epsilon).

예를 들어, 두 연속 확률 변수 XY가 결합 밀도 f_{X,Y}(x,y)를 갖는 경우, 로피탈의 정리 및 라이프니츠 적분 법칙에 따라, \epsilon에 대한 미분을 적용하면 다음과 같다.[3]

:

\begin{aligned}

\lim_{\epsilon \to 0} P(Y \in U \mid x_0-\epsilon < X < x_0+\epsilon) &=

\lim_{\epsilon \to 0} \frac{\int_{x_0-\epsilon}^{x_0+\epsilon} \int_U f_{X, Y}(x, y) \mathrm{d}y \mathrm{d}x}{\int_{x_0-\epsilon}^{x_0+\epsilon} \int_\mathbb{R} f_{X, Y}(x, y) \mathrm{d}y \mathrm{d}x} \\

&= \frac{\int_U f_{X, Y}(x_0, y) \mathrm{d}y}{\int_\mathbb{R} f_{X, Y}(x_0, y) \mathrm{d}y}.

\end{aligned}



결과 극한은 X가 주어진 Y의 조건부 확률 분포이며, 분모인 확률 밀도 f_X(x_0)가 엄격하게 양수일 때 존재한다.[3]

극한을 사용하여 정의되지 않은 확률 P(A \mid X=x)를 ''정의''하고 싶을 수 있지만, 이는 일관된 방식으로 수행될 수 없다.[4] 특히, 사건 \{X = x\}\{W = w\}가 동일하지만 결과 극한이 다음과 같지 않은 확률 변수 XW 및 값 x, w를 찾을 수 있다.[4]

:\lim_{\epsilon \to 0} P(A \mid x-\epsilon \le X \le x+\epsilon) \neq \lim_{\epsilon \to 0} P(A \mid w-\epsilon \le W \le w+\epsilon).

보렐-콜모고로프 역설은 기하학적 논증을 통해 이를 보여준다.[4]

P(B) = 0인 경우 P(A|B)는 정의되지 않는다.[5] 그러나, 그러한 사건에 대해 완전 가법족 관점에서 조건부 확률을 정의하는 것이 가능하다.[5]

예를 들어, X와 Y는 퇴화 분포가 아닌 연속 결합 분포 f_{X,Y}(x,y)를 따르는 확률 변수라고 가정한다.[6] B가 양의 측도를 갖는 경우, 다음이 성립한다.[6]

:

\operatorname{P}(X \in A \mid Y \in B) =

\frac{\int_{y\in B}\int_{x\in A} f_{X,Y}(x,y)\,dx\,dy}{\int_{y\in B}\int_{x\in\mathbb R} f_{X,Y}(x,y)\,dx\,dy}



그러나 B의 측도가 0인 경우가 문제이다.[7] B = {y_0}인 경우, 단일 점을 표현하지만, 조건부 확률은 다음과 같다.[7]

:

\operatorname{P}(X \in A \mid Y = y_0) = \frac{\int_{x\in A} f_{X,Y}(x,y_0)\,dx}{\int_{x\in\mathbb R} f_{X,Y}(x,y_0)\,dx},



이 방법은 보렐-콜모고로프 역설이 발생한다.[8] 측도가 0인 경우의 더 일반적인 케이스에서는 더욱 문제이다.[8] 아래와 같이 극한을 표기하고, 모든 \delta y_i가 0에 가까워지는 경우, 어떻게 0에 가까워지는지에 따라 달라진다.[8]

:

\operatorname{P}(X \in A \mid Y \in \bigcup_i[y_i,y_i+\delta y_i]) \approxeq

\frac{\sum_i \int_{x\in A} f_{X,Y}(x,y_i)\,dx\,\delta y_i}{\sum_i\int_{x\in\mathbb R} f_{X,Y}(x,y_i) \,dx\, \delta y_i}


2. 4. 이산 확률 변수에 대한 조건화

를 이산 확률 변수라고 하고 가능한 결과값을 로 표기한다. 예를 들어, 가 주사위를 던져서 나온 값을 나타낸다면 는 집합 \{ 1, 2, 3, 4, 5, 6 \}이 된다. 가 이산 확률 변수라고 가정하면, 의 각 값은 0이 아닌 확률을 갖는다.

의 값 와 사건 에 대한 조건부 확률은 다음과 같다.

P(A \mid X=x) .

간단히 표기하면

:c(x,A) = P(A \mid X=x)

이것은 두 변수 와 의 함수임을 알 수 있다.

고정된 에 대해, 확률 변수 Y = c(X, A) 를 구성할 수 있다. 이는 의 값 가 관찰될 때마다 P(A \mid X=x) 의 결과를 나타낸다.

따라서 가 주어졌을 때의 조건부 확률은 구간 [0,1]의 결과를 갖는 확률 변수 로 취급될 수 있다. 전확률의 법칙에 따르면, 이 확률 변수의 기대값은 의 비조건부 확률과 같다.

3. 성질

확률 공간 (\Omega,\mathcal F,\operatorname{Pr}) 및 두 사건 A,B\in\mathcal F가 주어졌을 때, 한 사건이 양의 확률 \operatorname{Pr}(A)>0을 가지면, 두 사건의 교집합의 확률은 조건부 확률을 통해 다음과 같이 나타낼 수 있다.[21]

:\operatorname{Pr}(A\cap B)=\operatorname{Pr}(A)\operatorname{Pr}(B|A)

즉, 두 사건이 동시에 일어날 확률은 A가 일어날 확률과 A가 일어났을 때 B가 일어날 확률의 곱이다.

일반적으로, n개의 사건 A_1,\dots,A_n\in\mathcal F에 대하여, \operatorname{Pr}(A_1\cap\cdots\cap A_{n-1})>0이면, 다음이 성립한다.

:\operatorname{Pr}(A_1\cap\cdots\cap A_n)=\operatorname{Pr}(A_1)\operatorname{Pr}(A_2|A_1)\operatorname{Pr}(A_3|A_1\cap A_2)\cdots\operatorname{Pr}(A_n|A_1\cap\cdots\cap A_{n-1})

두 사건 중 하나가 양의 확률 \operatorname{Pr}(A)>0을 가질 경우 다음 두 조건은 서로 동치이다.


  • A,B는 독립 사건이다.
  • \operatorname{Pr}(B|A)=\operatorname{Pr}(B). 즉 B의 조건부 확률과 무조건 확률이 일치한다.


임의의 세 사건 A,B,C\in\mathcal F에 대하여, \operatorname{Pr}(A\cap B)>0이라면, 다음 항등식이 성립한다.

:\operatorname{Pr}((C|B)|A)=\operatorname{Pr}(C|A\cap B)

확률 공간 (\Omega,\mathcal F,\operatorname{Pr})가산 개의 양의 확률의 사건들의 족

:\mathcal A\subseteq\mathcal F

:|\mathcal A|\le\aleph_0

:\operatorname{Pr}(A)>0\qquad\forall A\in\mathcal A

이 주어졌다고 하고, \mathcal A가 전체 공간 \Omega분할한다고 하자. 그렇다면, 임의의 사건 B\in\mathcal F에 대하여, 다음과 같은 항등식들이 성립한다.

:\operatorname{Pr}(B)=\sum_{A\in A}\operatorname{Pr}(A)\operatorname{Pr}(B|A) (전체 확률의 법칙)

:\operatorname{Pr}(A|B)=\frac{\operatorname{Pr}(A)\operatorname{Pr}(B|A)}{\sum_{A'\in\mathcal A}\operatorname{Pr}(A')\operatorname{Pr}(B|A')}\qquad(\mathcal A\in\mathcal A,\;B\in\mathcal F,\;\operatorname{Pr}(B)>0) (베이즈 정리)

통계적으로 독립인 사건은 상호 배타적 사건과 다르다. 다음 표는 두 경우의 결과를 비교한다.

통계적으로 독립인 경우상호 배타적인 경우
P(A\mid B)=P(A)0
P(B\mid A)=P(B)0
P(A \cap B)=P(A) P(B)0



상호 배타적 사건은 통계적으로 독립일 수 없다. 왜냐하면 한 사건이 발생하면 다른 사건은 발생하지 않기 때문이다.

4. 부분 조건부 확률

부분 조건부 확률은 각 조건 사건 B_i가 100%와는 다를 수 있는 정도 b_i (믿음의 정도, 경험의 정도)로 발생했을 때의 사건 A의 확률에 관한 것이다. 빈도론적으로, 부분 조건부 확률은 조건이 적절한 길이 n의 실험 반복에서 테스트되는 경우 타당하다.[10] 이러한 n-경계 부분 조건부 확률은 모든 확률 사양 B_i \equiv b_i를 준수하는 길이 n의 테스트베드에서 사건 A의 조건부 기대 평균 발생으로 정의될 수 있다. 즉,

:P^n(A\mid B_1 \equiv b_1, \ldots, B_m \equiv b_m)=

\operatorname E(\overline{A}^n\mid\overline{B}^n_1=b_1, \ldots, \overline{B}^n_m=b_m)

[10]

이를 기반으로 부분 조건부 확률은 다음과 같이 정의될 수 있다.

:

P(A\mid B_1 \equiv b_1, \ldots, B_m \equiv b_m)

= \lim_{n\to\infty}

P^n(A\mid B_1 \equiv b_1, \ldots, B_m \equiv b_m),

여기서 b_i n \in \mathbb{N}[10]

제프리 조건화[11][12]는 조건 사건이 분할을 형성해야 하는 부분 조건부 확률의 특별한 경우이다.

:

P(A\mid B_1 \equiv b_1, \ldots, B_m \equiv b_m)

= \sum^m_{i=1} b_i P(A\mid B_i)


5. 예시

어떤 사람이 두 개의 공정한 6면체 주사위를 비밀리에 굴린다고 가정하고, 그 합이 5 이하라는 정보가 주어졌을 때 첫 번째 주사위의 윗면 값이 2일 확률을 계산해 보자.


  • ''D''1주사위 1에서 굴린 값이라고 하자.
  • ''D''2를 주사위 2에서 굴린 값이라고 하자.


''' ''D''1 = 2일 확률'''

표 1은 두 주사위 굴림 값의 36가지 조합 표본 공간을 보여주며, 각 조합은 1/36의 확률로 발생한다. 빨간색과 짙은 회색 셀에 표시된 숫자는 ''D''1 + ''D''2이다.

36가지 결과 중 정확히 6개에서 ''D''1 = 2이다. 따라서 ''P''(''D''1 = 2) = 6/36 = 1/6 이다.

표 1
+D2
123456
D11234567
2345678
3456789
45678910
567891011
6789101112



''' ''D''1 + ''D''2 ≤ 5일 확률'''

표 2는 36가지 결과 중 정확히 10개에서 ''D''1 + ''D''2 ≤ 5임을 보여주므로 ''P''(''D''1 + ''D''2 ≤ 5) = 10/36 이다.

표 2
+D2
123456
D11234567
2345678
3456789
45678910
567891011
6789101112



''' ''D''1 = 2 ''이고'' ''D''1 + ''D''2 ≤ 5 ''일 확률'''

표 3은 이 10가지 결과 중 3가지에서 ''D''1 = 2임을 보여준다.

따라서 조건부 확률 P(''D''1 = 2 | ''D''1+''D''2 ≤ 5) = 3/10 = 0.3 이다.

표 3
+D2
123456
D11234567
2345678
3456789
45678910
567891011
6789101112



여기서 조건부 확률의 정의에 따르면, 조건이 되는 사건 ''B''는 ''D''1 + ''D''2 ≤ 5이고, 사건 ''A''는 ''D''1 = 2이다. 표에서 보듯이 P(A|B) = (P(A ∩ B)) / P(B) = (3/36) / (10/36) = 3/10 이다.

6. 통계적 추론에서의 활용

통계적 추론에서 조건부 확률은 새로운 정보를 바탕으로 사건의 확률을 갱신하는 데 사용된다.[13] 새로운 정보는 다음과 같이 통합될 수 있다:[1]


  • 관심 있는 사건 ''A''가 표본 공간 (''X'',''P'')에 속한다고 가정한다.
  • 사건 ''B''가 발생했거나 발생할 것이라는 것을 알고 사건 ''A''가 발생하는 것은 ''A''가 ''B''로 제한된 경우, 즉 A \cap B가 발생하는 것을 의미한다.
  • ''B''의 발생에 대한 지식이 없다면, ''A''의 발생에 대한 정보는 단순히 ''P''(''A'')가 된다.
  • 사건 ''B''가 발생했거나 발생할 것이라는 것을 알고 ''A''가 발생할 확률은 ''B''가 발생할 확률인 ''P''(''B'')에 대한 A \cap B의 확률이 된다.
  • 이는 ''P''(''B'') > 0일 때는 P(A \mid B) = P(A \cap B)/P(B)가 되고, 그렇지 않으면 0이 된다.


이러한 접근 방식은 원래의 확률 측정과 일치하고 모든 콜모고로프 공리를 만족하는 확률 측정을 생성한다. 이 조건부 확률 측정은 또한 ''A''의 확률의 상대적 크기가 ''X''에 대해 ''B''에 대해서도 보존될 것이라고 가정함으로써 얻을 수도 있다.

베이즈 확률 해석에서는 "증거" 또는 "정보"라는 표현을 일반적으로 사용한다. 조건화된 사건은 조건부 사건에 대한 증거로 해석된다. 즉, ''P''(''A'')는 증거 ''E''를 고려하기 전의 ''A''의 확률이고, ''P''(''A''|''E'')는 증거 ''E''를 고려한 후, 또는 ''P''(''A'')를 갱신한 후의 ''A''의 확률이다. 이는 빈도주의적 해석과 일치한다.

모스 부호가 전송될 때, 수신된 "점" 또는 "대시"가 오류일 확률이 있다. 이는 종종 메시지 전송의 간섭으로 간주된다. 따라서 예를 들어 "점"을 보낼 때 "점"이 수신되었을 확률을 고려하는 것이 중요하다. 이는 다음과 같이 표현된다. P(\text{점 전송 } | \text{ 점 수신}) = P(\text{점 수신 } | \text{ 점 전송}) \frac{P(\text{점 전송})}{P(\text{점 수신})}. 모스 부호에서 점과 대시의 비율은 전송 시점에 3:4이므로 "점"과 "대시"의 확률은 P(\text{점 전송}) = \frac {3}{7} \ and \ P(\text{대시 전송}) = \frac {4}{7}이다. 점이 대시로 전송될 확률이 1/10이고, 대시가 점으로 전송될 확률도 마찬가지로 1/10이라고 가정하면, 베이즈 규칙을 사용하여 P(\text{점 수신})을 계산할 수 있다.

P(\text{점 수신}) = P(\text{점 수신 } \cap \text{ 점 전송}) + P(\text{점 수신 } \cap \text{ 대시 전송})

P(\text{점 수신}) = P(\text{점 수신 } \mid \text{ 점 전송})P(\text{점 전송}) + P(\text{점 수신 } \mid \text{ 대시 전송})P(\text{대시 전송})

P(\text{점 수신}) = \frac{9}{10}\times\frac{3}{7} + \frac{1}{10}\times\frac{4}{7} = \frac{31}{70}

이제 P(\text{점 전송 } \mid \text{ 점 수신})을 계산할 수 있다.

P(\text{점 전송 } \mid \text{ 점 수신}) = P(\text{점 수신 } \mid \text{ 점 전송}) \frac{P(\text{점 전송})}{P(\text{점 수신})} = \frac{9}{10}\times \frac{\frac{3}{7}}{\frac{31}{70}} = \frac{27}{31}[14]

7. 통계적 독립

두 사건 ''A''와 ''B''의 교집합의 확률이 각 사건의 확률의 곱과 같으면, 즉

:P(A \cap B) = P(A) P(B) 이면,

두 사건은 통계적으로 독립이라고 정의한다.[15]

''P''(''B'')가 0이 아니라면, 이는

:P(A\mid B) = P(A) 와 같다.

마찬가지로, ''P''(''A'')가 0이 아니라면,

:P(B\mid A) = P(B) 와 같다.

조건부 확률이 정의되지 않을 수 있고, ''A''와 ''B''에서 대칭적이므로 독립은 상호 배타적 사건을 지칭하지 않는다.[15]

독립 사건 쌍 [A B]와 사건 C가 주어지면, 곱이 참인 경우 쌍은 조건부 독립으로 정의된다.[16]

:P(AB \mid C) = P(A \mid C)P(B \mid C)

'''독립 사건 vs. 상호 배타적 사건'''

상호 배타적 사건의 개념은 독립 사건과 별개이며 구별된다. 다음 표는 두 경우의 결과를 대조한다(조건부 사건의 확률이 0이 아닌 경우).

통계적으로 독립인 경우상호 배타적인 경우
P(A\mid B)=P(A)0
P(B\mid A)=P(B)0
P(A \cap B)=P(A) P(B)0



상호 배타적 사건은 통계적으로 독립일 수 없다(둘 다 불가능한 경우를 제외하고). 왜냐하면 하나가 발생한다는 것을 아는 것은 다른 사건에 대한 정보를 제공하기 때문이다.

8. 흔히 저지르는 오류

일반적으로 ''P''(''A''|''B'')와 ''P''(''B''|''A'')는 같다고 가정할 수 없다. 이는 통계에 정통한 사람들에게도 간과하기 쉬운 오류이다.[17] ''P''(''A''|''B'')와 ''P''(''B''|''A'') 사이의 관계는 베이즈 정리에 의해 다음과 같이 주어진다.

:\begin{align}

P(B\mid A) &= \frac{P(A\mid B) P(B)}{P(A)}\\

\Leftrightarrow \frac{P(B\mid A)}{P(A\mid B)} &= \frac{P(B)}{P(A)}

\end{align}

즉, P(''A''|''B'') ≈ P(''B''|''A'')는 ''P''(''B'')/''P''(''A'') ≈ 1, 다시 말해 ''P''(''A'') ≈ ''P''(''B'')인 경우에만 성립한다.

Ā) P(Ā)/P(B) 등을 보일 수 있다.


일반적으로 ''P''(''A'')와 ''P''(''A''|''B'')는 같다고 가정할 수 없다. 이 확률들은 전확률의 법칙을 통해 다음과 같이 연결된다.

:P(A) = \sum_n P(A \cap B_n) = \sum_n P(A\mid B_n)P(B_n).

여기서 사건 (B_n)\Omega의 가산 분할을 형성한다.

이 오류는 선택 편향을 통해 발생할 수 있다.[18] 예를 들어, 의료 청구와 관련하여 ''S''''C''를 상황(급성 질환) ''C''의 결과로 발생하는 후유증 (만성 질환) ''S''의 사건이라고 하고, ''H''를 개인이 의료 도움을 구하는 사건이라고 하자. 대부분의 경우 ''C''가 ''S''를 유발하지 않는다고 가정하면(''P''(''S''''C'')는 낮다), ''C''로 인해 ''S''가 발생한 경우에만 의료 처치를 받는다고 가정할 때, 환자의 경험을 통해 의사는 ''P''(''S''''C'')가 높다고 잘못 결론 내릴 수 있다. 의사가 관찰한 실제 확률은 ''P''(''S''''C''|''H'')이다.

사전 확률을 부분적으로 또는 완전히 고려하지 않는 것을 ''기저율 무시''라고 한다. 반대로, 사전 확률로부터의 불충분한 조정은 ''보수성''이라고 한다.

9. 관련 개념

결합 확률은 여러 사건이 동시에 일어날 확률을 말한다(시간적으로 동시라는 의미는 아니다). 사건 A와 B의 결합 확률은 $P(A \cap B)$ 또는 $P(A, B)$로 표기한다.[1]

주변 확률은 다른 사건과 관계없이 한 사건만의 확률을 말한다(일반적인 조건 없는 확률과 같다). 주변 확률은 결합 확률을 불필요한 사건에 대해 합산(또는 일반적으로 적분)하면 얻을 수 있다. A의 주변 확률은 $P(A)$, B의 주변 확률은 $P(B)$로 표시된다.[2]

단, 이상의 두 사건 A와 B 사이에는 시간 관계 또는 인과 관계가 없어도 되며, 어떤 관계라도 상관없음에 주의해야 한다. 예를 들어 베이즈 추정에서 사용되는 사후 확률은 어떤 근거를 조건으로, 그 원인이 된(시간적으로도 이전의) 사건을 추측한 확률을 말한다.

확률에 조건을 붙이는 것은 다른(또는 새로운) 정보를 고려하여 확률을 수정하는 것이며, 수학적으로는 베이즈 정리로 나타낸다.

참조

[1] 서적 Probability: A Graduate Course Springer
[2] 웹사이트 Conditional Probability https://www.mathsisf[...] 2020-09-11
[3] 간행물 A Modern Introduction to Probability and Statistics https://doi.org/10.1[...] 2005
[4] 간행물 A Modern Introduction to Probability and Statistics https://doi.org/10.1[...] 2005
[5] 서적 A Modern Course in Statistical Physics WILEY-VCH
[6] 서적 Foundations of the Theory of Probability Chelsea
[7] 웹사이트 Conditional Probability http://www.stat.yale[...] 2020-09-11
[8] 간행물 Boolean algebras of conditionals, probability and logic https://www.scienced[...] 2020-09-01
[9] 서적 Probabilities of Conditionals https://doi.org/10.1[...] Springer Netherlands 2021-12-04
[10] 웹사이트 Generalized Jeffrey Conditionalization (A Frequentist Semantics of Partial Conditionalization) http://fpc.formchart[...] Springer 2017-12-19
[11] 서적 The Logic of Decision, 2nd edition https://books.google[...] University of Chicago Press
[12] 웹사이트 Bayesian Epistemology https://plato.stanfo[...] Stanford Encyclopedia of Philosophy 2017-12-29
[13] 서적 Statistical Inference Duxbury Press
[14] 웹사이트 Conditional Probability and Independence http://www.math.ntu.[...] 2021-12-22
[15] 서적 Understanding Probability https://www.cambridg[...] Cambridge University Press 2012
[16] 서적 Conditional Independence in Applied Probability https://www.worldcat[...] Birkhäuser Boston 1978
[17] 문서 "Innumeracy: Mathematical Illiteracy and its Consequences" Hill and Wang
[18] 문서 Der Wyatt-Earp-Effekt oder die betörende Macht kleiner Wahrscheinlichkeiten
[19] 서적 Statistical Inference Duxbury Press
[20] 웹사이트 Grinstead and Snell's Introduction to Probability http://math.dartmout[...]
[21] 서적 수리통계학 입문 1995-03-10



본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.

문의하기 : help@durumis.com